Miesięcznik Ubezpieczeniowy: Jakość pod presją algorytmu. Jak AI, DORA i cyberzagrożenia zmieniają definicję jakości w ubezpieczeniach?
02.09.2025
Artykuł autorstwa eksperta PKF ( Tomasz Janas - Advisory Managing Director PKF Polska) ukazał się we wrześniu 2025 r. w wydaniu nr 9/2025 Miesięcznika Ubezpieczeniowego.
Jeszcze kilka sezonów temu reklamowe slogany branży ubezpieczeniowej brzmiały znajomo: „decyzja w 15 minut”, „wypłata w 48 godzin”, „infolinia 24/7”. Dziś, w świecie generatywnej sztucznej inteligencji, unijnego pakietu regulacyjnego oraz eksplozji cyberzagrożeń, te obietnice stanowią zaledwie punkt wyjścia. – Tomasz Janas
Zmieniły się pytania, które zadają klienci, regulator i inwestorzy. Klienci pytają dziś, czy algorytm wyceny jest wolny od uprzedzeń, Komisja Nadzoru Finansowego – czy system sprzedaży przetrwa atak szyfrującego złośliwego oprogramowania i czy dane osobowe nie posłużą do stworzenia fałszywego nagrania wideo wyłudzającego odszkodowanie. Takie wątpliwości przesuwają dyskusję o jakości z poziomu „doświadczeń klienta” na grunt „ładu i odporności organizacyjnej”.
W tym artykule przyglądam się trzem trendom, AI Act, DORA i rosnącej fali cyberzagrożeń, oraz temu, jak redefiniują one pojęcie jakości w ubezpieczeniach. Analizuję, jakie konsekwencje oznaczają dla zakładów ubezpieczeń, multiagencji i brokerów, a także gdzie w tej nowej układance pozostaje miejsce dla człowieka.
AI ACT: JAKOŚĆ MUSI BYĆ WYJAŚNIALNA
Unijne rozporządzenie AI Act, uchwalone w kwietniu 2025 r., klasyfikuje większość systemów sztucznej inteligencji wykorzystywanych w finansach jako „wysokiego ryzyka”. Oznacza to obowiązek pełnej przejrzystości – zarówno wobec nadzoru, jak i klientów. Jeżeli algorytm proponuje składkę OC w wysokości 1123 zł, klient ma prawo dowiedzieć się, dlaczego nie 845 zł ani 1290 zł. W praktyce firmy będą musiały prowadzić rejestr wszystkich modeli, dokumentować dane treningowe i regularnie poddawać systemy niezależnym audytom. Nowym złotym standardem staje się Transparent Quote Ratio – odsetek ofert, których genezę doradca potrafi wytłumaczyć w mniej niż dwie minuty.
Konsekwencje? Algorytm nie może już być czarną skrzynką. Gdy w Wielkiej Brytanii jeden z insurtechów zaoferował kobietom niższe składki za jazdę w godzinach „szkolnych”, okazało się, że model nieświadomie promuje osoby pracujące na część etatu. W Polsce taki taryfikator potencjalnie naruszałby zasadę równego traktowania. Agent, który rekomenduje polisę generowaną przez AI, musi zatem rozumieć logikę modelu – inaczej może ponosić współodpowiedzialność cywilną wraz z ubezpieczycielem.
DORA: OD SZYBKOŚCI DO ODPORNOŚCI
Drugi filar zmian to Digital Operational Resilience Act. DORA każe myśleć o jakości nie w kategoriach reakcyjnych – „jak szybko podnieść system po awarii” – lecz proaktywnych: „czy potrafimy utrzymać ciągłość usług, gdy wszystko się wali”.
Ustawa wprowadza cztery obowiązki szczególnie bolesne dla pośredników:
- po pierwsze, kompleksowe zarządzanie ryzykiem ICT obejmujące także prywatne laptopy pracowników w trybie home office;
- po drugie, zgłaszanie poważnych incydentów w ciągu czterech godzin do KNF i CSIRT FIN;
- po trzecie, regularne testy odporności – od szybkich skanów podatności po symulowane ataki w modelu TLPT;
- po czwarte, znacznie ostrzejszy nadzór nad zewnętrznymi dostawcami chmurowymi czy porównywarkami polis.
Historia z listopada 2024 r. pokazuje, jak kosztowny bywa brak przygotowania. W trakcie Black Insurance Friday trzygodzinna awaria popularnej porównywarki SaaS zatrzymała blisko trzydzieści tysięcy transakcji. Ubezpieczyciele, którzy zdążyli wdrożyć plany awaryjne zgodne z DORA, w kilka minut przekierowali ruch na zapasowe API. Ci, którzy nie mieli procedur, liczyli straty i tłumaczyli się klientom.
NOWE SPEKTRUM RYZYKA
Rozporządzenia to jedno, ale rynek kształtuje także realna kreatywność przestępców. Deepfake, syntetyczna tożsamość czy ransomware as a service (RaaS 3.0) wywołują skutki odczuwalne wprost na wskaźnikach jakości. Gdy AI generuje perfekcyjne zdjęcie „zalanej piwnicy”, rosną koszty likwidacji. Gdy ransomware szyfruje bazę brokerów, reputacja i zaufanie klientów pękają jak bańka mydlana. Właśnie dlatego ocena jakości usług obejmuje dziś pytanie: czy zespół sprzedaży potrafi wykryć fałszywe zdjęcie szkody? Czy centrum obsługi klienta rozpozna wygenerowany
przez AI głos?
PIĘĆ FILARÓW JAKOŚCI NA LATA 2025–2030
Jak więc wygląda standard jakości jutra?
- po pierwsze, przejrzystość, klient musi wiedzieć, skąd wzięła się cena polisy.
- po drugie, odporność cyfrowa, czyli dostępność systemów na poziomie „pięciu dziewiątek” (99,999%).
- trzecim filarem jest uczciwość algorytmów, czyli brak dyskryminacji przy ocenie ryzyka.
- czwarty to integralność i poufność danych – zero wycieków i koniec z podstępnymi okienkami zgody.
- wreszcie piąty filar: ludzka empatia. Technologia może usprawniać procesy, ale w chwili stresu klient wciąż potrzebuje rozmowy z człowiekiem.
CZY ZATEM JAKOŚĆ DA SIĘ W PEŁNI ZAUTOMATYZOWAĆ?
Automatyzacja sprawdza się w zadaniach transakcyjnych – kalkulacji składki czy wysyłce polisy. W momencie utraty zdrowia, śmierci bliskiej osoby czy sporu o roszczenie klient chce porozmawiać z realnym doradcą. Z tego powodu za granicą pojawia się nowy miernik – Human Touch Point Index. Bada, ile razy klient świadomie wybiera kontakt z człowiekiem, mimo dostępnego chatbota. Wyniki są pouczające: w sprawach prostych bot wystarcza, lecz w sytuacjach bardziej wymagających – 9 na 10 osób żąda interwencji konsultanta.
JAKICH KOMPETENCJI POTRZEBUJE AGENT 2.0?
Pośrednik przyszłości to nie tylko sprzedawca polisy. To tłumacz ryzyka AI na język korzyści biznesowych, „rzecznik etyki algorytmów” i ”trener higieny cybernetycznej”. Musi umieć ocenić umowę SLA z dostawcą chmurowym, wyjaśnić klientowi raport z audytu modelu oraz poprowadzić wideorozmowę, w której zweryfikuje, czy po drugiej stronie nie siedzi deepfake.
CO TRZEBA ZROBIĆ DO KOŃCA 2025 ROKU?
Pierwszy krok to inwentaryzacja wszystkich systemów AI i ocena ich ryzyka. Następnie wyznaczenie AI Compliance Officera, który zaktualizuje politykę jakości o wymóg tłumaczenia działania algorytmów. Równolegle warto przygotować plan reagowania na incydenty zgodny z DORA, podpisać aneksy „AI Rider” z insurtechami i przeprowadzić ćwiczenie phishing/deepfake wśród pracowników. Niby lista zadań wygląda jak kolejny koszt, ale finalnie działa jak polisa na reputację – a ta staje się najcenniejszym aktywem firmy.
ZAKOŃCZENIE
Jakość pod presją algorytmu nie polega już na czasie obsługi czy uśmiechu konsultanta. Dziś oznacza przejrzyste modele AI, odporną infrastrukturę, zero wycieków i realne współczucie w trudnym momencie klienta. To ambitne wymagania, ale kryją w sobie nagrodę: mniej sporów, większe zaufanie i stabilniejszy portfel. Firmy, które już dziś połączą technologię z ludzką wrażliwością, zyskają znaczącą przewagę.
